# Flowise AI: Transcrições de: Flowise AI ## Tipo: Playlist ### Data: 08-01-2025 23: 41: 29 ### Vídeo 1: [https://www.youtube.com/watch?v=tD6fwQyUIJE](https://www.youtube.com/watch?v=tD6fwQyUIJE) (Idioma: en) **Olá e bem-vindo de volta** Neste vídeo, vamos dar uma olhada no Flowise, uma ferramenta de código fonte aberta que facilita a prototipação de aplicações baseadas em Lang chain usando uma interface de usuário intuitiva. Nossa série de lançamentos JS nos mostrou como criar aplicativos de inteligência artificial (IA) usando Lang chain e node. js, mas nesta série iremos dar uma olhada em como criar IA aplicativos sem experiência de programação. O Flowise é **gratuito** para usar e pode ser executado em sua própria máquina local ou implantado em um servidor web para acesso online. O Flowise nos permite criar IA aplicativos usando uma interface de drag and drop muito simples e pode ser uma ferramenta útil para prototipar aplicações de Lang chain antes de escrever uma única linha de código. Também podemos utilizar o Flowise para expôr pontos finais API para interagir com nossos fluxos de aplicativos Flowise diretamente a partir das nossas aplicações. Neste vídeo vamos dar uma olhada em como configurar o Flowise para rodar em sua máquina local e também teremos um olhada nas amostras que vem incluídas no Flowise. Para seguir ao longo desse vídeo não será necessária qualquer experiência de programação. No entanto, você precisará ter o Node. js instalado em sua máquina. Ir para o [nodejs. org](http://nodejs.org) e faça o download e instale a versão LTS de Node. js. Em seguida, abra o prompt de comando e execute o seguinte comando: ```bash npm install hyphen -g ``` Em seguida, execute este comando para instalar o Flowise globalmente na sua máquina: ```bash npm install flowise -g ``` No momento em que o Flowise estiver sendo instalado faço uma pequena digressão. Existem várias maneiras de instalar o Flowise, mas para este demo, estamos instalando-o globalmente na máquina. Se preferir o uso de Docker, há uma opção nesse caso e, dentro da secção de desenvolvedor, podemos configurar nosso próprio pasta de projeto e, em seguida, basta clonar o repositório e instalar as dependências. No entanto, neste demo estamos simplesmente instalando o Flowise globalmente na máquina. Após a instalação ser concluída, podemos iniciar o Flowise digitando o seguinte comando: ```bash npx flowwise start ``` Se tudo estiver configurado corretamente, você deve ver uma mensagem semelhante à seguinte: ```bash flowise server is listening at Port 3000 ``` Para acessar o Flowise, pode agora ir para o seu navegador e digitar localhost: 3000. A partir dessa página do Flowise, você terá algumas opções: 1. Criar um novo fluxo de chat clicando em "adicionar novo". Isso te dará um canvas em branco em que você poderá criar sua aplicação AI. 2. Para adicionar nódulos à sua canvas, clique no botão de soma. Aqui é onde você pode ver todos os componentes disponíveis em Lang chain, incluindo agentes, cadeias, modelos de chat, carregadores de documentos e muito mais. 3. Pesquise nódulos específicos no input de pesquisa. Por exemplo, quando digito "open AI" posso ver os modelos de chat oferecidos por OpenAI, assim como outros componentes OpenAI. 4. Salve seu fluxo de chat usando o botão de salvar. 5. Alterar as configurações do fluxo de chat clicando no botão de configurações. Isso alterará dependendo do conteúdo dentro do seu fluxo. 6. Interaj com a sua aplicação AI clicando no botão de chat. Você pode expandi-lo clicando no botão de expandir chat. Limpar a história de chat usando o botão de limpar história de chat e fechar a janela de chat clicando no botão X. 7. Exibir e ocultar itens do dashboard clicando no botão de burguer. Você também pode alternar entre modo escuro e claro usando este botão, além de ter acesso às configurações, ao marketplace e às chaves de API. Você pode encontrar mais informações sobre como usar o Flowise na documentação do Lang chain e também pode acompanhá-la nesta série. --- ### Vídeo 2: [https://www.youtube.com/watch?v=fn4GCZuiwdk](https://www.youtube.com/watch?v=fn4GCZuiwdk) (Idioma: en) **Olá e bem-vindo de volta** Agora que temos o Flowise configurado e feito um olhada no seu interface, podemos criar sua primeira flow de chat no painel do Flowise do dashboard. Criar uma nova flow de chat clicando em "adicionar novo" e verás um canvas em branco. Usando o botão de soma você pode adicionar nódulos ao seu canvas. Na lista podemos ver todos os nódulos disponíveis que podem ser adicionados à sua painel, entre os quais há muitos. Vamos ter um olhada nesses nódulos ao longo da série, mas se desejar mais informações sobre o que cada um desses nódulos faz, sugiro utilizar a documentação do Lang chain como referência. No nosso exemplo vamos criar uma próxima interação com um modelo de IA. Para mais informações sobre como utilizar a Flowise, verifique a documentação do Lang chain ou inscreva-se em https://platform.openai.com/ e crie uma conta gratuita. Você precisará da API key de IA de sua conta para utilizar com o Flowise. **Use o comando npx flowwise start para iniciar o servidor Flowise local e faça o download deste vídeo em anexo. ** # Dad Jokes com AI Flowwise ## Introdução Para gerar um piada do pai utilizando um assunto que lhe passamos é necessário adicionar um `nó de cadeia` ou um `nó de agente`. Neste vídeo, entraremos na differença e para uma interação simples com um modelo, podemos utilizar **cadeias**. ### Cadeias Os nós de cadeia são o nó mais básico para produzir algum tipo de saída da nossa aplicação. Você verá que temos acesso a alguns diferentes nós de cadeia, por exemplo: 1. `llm` nó de cadeia: uma interação básica com um modelo de inteligência artificial 2. `conversation` nó de cadeia: utilizado para uma conversa back-and-forth com o modelo, onde o modelo precisa se lembrar de conversas anteriores Porém, para nosso primeiro fluxo de chat iremos utilizar o `llm` nó de cadeia. Pode ser arrastado para o painel de desenho. Este nó nos avisará quais nós adicionais são necessários para que este nó funcione. Para um `llm` nó de cadeia, precisamos fornecer um `modelo de linguagem`, um `modelo de prompts`, e um `nó openai` para incorporar a API openAI. #### Modelo de Linguagem Para adicionar um `modelo de linguagem` a nossa aplicação: 1. Clique no botão `Adicionar` 2. Procure `llms` e dentro lrm, acesse alguns modelos como `openai (fase de debater)` ou `co-year` 3. Integrar openAI é bastante fácil e, sua chave de API de openAI já foi gerada em nossa próxima aula que retrocede, então vamos continuar a utilizar o openai. #### Modelo de Prompts Adicione um `modelo de prompts` fazendo: 1. Clicando no botão `ADD` 2. Sob `Prompts`, selecione o nó `Prompt template` e arraste-o para o quadro de desenho 3. Procure um string de template, por exemplo: "Crie uma piada do pai sobre `assunto`" (deixe o caixo de formatos de *prompts* vazio pelo momento) O `llm` nó de cadeia receberá o input do `Prompt template` e depois o transmitirá para o nó openAI. #### Integração de openAI 1. Adicione o `openai` nó ao quadro de desenho 2. Cole a nossa chave da API no caixo de entrada do nó openai 3. Conecte o `openai` nó com a entrada de modelo de linguagem no nó de cadeia ### Valores de Prompts Os valores de prompts nos permitem adicionar variáveis adicionais à nossa cadeia de texto. Por exemplo: 1. Substitua "engraçado" com uma variável como `tipo_piada` e defina um valor para esta variável. 2. Faça referência ao nome da variável (`tipo_piada`) entre aspas, como `"tipo_piada"` 3. Feche com o valor desta variável, como `"engraçado"` 4. Conecte o nó openai com o nó de cadeia `valor de `prompt` e agora pode modificar o tipo de piada substituindo o valor desta variável ### Teste da Aplicação 1. Salve o fluxo de chat com um nome como `Piadas do pai` 2. Teste a aplicação clicando no quadro de conversa e escrevendo algum texto nele 3. O AI devolverá uma piada do pai conforme o assunto, substituindo as variáveis no template de prompts. Na próxima aulas, exploraremos como criar aplicações avançadas usando a funcionalidade `agente`. Adeus! Mantendo em formato Markdown: # Documentação: Criando Aplicativos de Inteligência Artificial com Flowwise Este guia vai te acompanhar na criação de aplicativos de inteligência artificial utilizando a interface intuitiva do Flowwise. Vamos abordar os princípios básicos da criação de aplicativos de inteligência artificial que utilizam uma base de conhecimento personalizada com seus próprios dados. ## Pré-requisitos Antes de construir um agente de chat baseado em documentos, é útil compreender algumas ideias-chave. Embora este assunto mereceria um vidéo inteiro sobre o assunto, vamos cobri-lo de modo abreviado neste guia. ### Text Splitters e Documentos Os Text Splitters nos permitem quebrar o conteúdo de um arquivo em pedaços. Sobre documentos, é importante notar que eles não são o mesmo que arquivos. Em vez disso, um documento é uma definição de cadeia da Llama Chain de um pedaço de texto obtido do Text Splitter. O documento também inclui o metadata, como o nome do arquivo e qualquer outra informação relevante sobre o pedaço de texto. Em algumas situações, você pode querer carregar uma pasta cheia de arquivos no seu aplicativo. Nesse caso, o Document Loader vai percorrer cada um dos arquivos e usar o text splitter para quebrá-los em pedaços. Ele também utilizará o metadata para arquivar o nome do arquivo que contém o texto. ### Bancos de Base Veator e Mapeamentos Os bancos de bases veator armazenam os dados como Vetor arrays, que a IA utiliza para encontrar documentos semelhantes quando nosotros a interagimos. Para converter nosso texto em um array de Vetor, precisamos executar uma função de mapeamentos única ao modelo de linguagem. Em nosso exemplo, usamos a função de mapeamentos OpenAI para transformar o nosso texto em um array. O array de Vetor, juntamente com o texto e o metadata, pode ser armazenado como registros no banco de bases veator. ### Construindo um Agente de Chat de Documentos em Flowwise Agora, vamos avançar para construir o agente de chat de documentos em Flowwise: 1. Vá para o Painel de Controle do Flowwise e crie **um novo fluxo de chat**. Nomeie-o **agente de chat de documentos**. 2. Salve o fluxo de chat e carregue um arquivo **que contém informações que a GPT não foi treinado**. (Exemplo: Uma história única. ) 3. Ad Craza um Carregador de Documentos para o seu projeto. 4. Configura o Carregador de Documentos para carregar seu arquivo de texto e converter em pedaços usando um Splitter de Texto. 5. Vincule o Splitter de Texto à **Parâmetro do Splitter de Texto** de seu Nó de Arquivo de Texto. Você pode especificar o tamanho e a sobreposição de seus pedaços conforme necessário para otimizar seu aplicativo. 6. Faça as Configurações do modelo de linguagem e o armazenamento de vetor para o seu agente de chat. 7. Na seção Cadeia, selecione uma cadeia de diálogo de recuperação de conversações que é adequada para esta tarefa de QA de documento. 8. Configura a cadeia conectando-a ao modelo de linguagem e ao armazenamento de vetor. 9. Salve o seu fluxo de chat e teste-o para ver seu aplicativo de inteligência artificial em ação! Neste resposta, foi tentado manter o texto em inglês onde possível, revisado para corrigir ortografia e erros de gramática, preservando a estrutura de Markdown e os comandos de códigos. Específicas terminologias técnicas também foram mantidas, quando possível, para ajudar a manter um ambiente de aprendizado mais familiar. # Documento de Envio e Embeddings para o Chatbot usando Cadeia de Linha e Pinecone Neste tutorial, discutiremos a capacidade de envio de arquivos como PDFs e arquivos de texto usando a Cadeia de Linha. Vamos explorar os passos para criar um chatbot de documento e armazenar seu conteúdo em um banco de dados Pinecone. ## Visão Geral Nossa solução consiste em dois componentes principais: 1. Ingestão de dados: Enviar e armazenar o documento no banco de dados Pinecone. 2. Chatbot de consulta: Interagir com o banco de dados para perguntar sobre o conteúdo armazenado. ### Limitações da solução atual - A integração inteira é executada a cada vez que uma pergunta é feita. - O armazenamento em memória de Vetor será perdido sempre que o servidor for reiniciado. ### Pré-requisitos 1. Crie uma conta na Pinecone: [pinecone. io](http://pinecone.io) 2. Crie um novo índice com as seguintes configurações: - Nome do índice: `flowwise` - Dimensões: 1536 (para o embedding de openAI) - Tipo: S1 - Plano: Starter ### Ingestão de Dados Crie um fluxo de chat chamado `Ingestar Documentos` e adicione os seguintes componentes: 1. **Cadeia**: Escolha a `Cadeia de Pergunta e Resposta Conversacional`. 2. **Modelo de Chat OpenAI**: Atribua sua chave API do OpenAI. 3. **Nó de atualização de documento do Pinecone**: Defina a chave API do Pinecone, ambiente e nome do índice. 4. **Carregador de Arquivo de Texto**: Escolha um carregador de documento adequado (por exemplo, arquivo de texto). 5. **Text Splitter Recursivo de Caracteres**: Defina o tamanho do bloco (por exemplo, 200) e a sobreposição do bloco (por exemplo, 20). 6. **Embedding de OpenAI**: Atribua sua chave API do OpenAI. Execute o fluxo de ingestão de documentos para enviar um documento armazenado no banco de dados Pinecone. ### Chatbot de Consulta Crie um novo fluxo de chat chamado `Consulta de Documento` e adicione os seguintes componentes: 1. **Cadeia**: Escolha a `Cadeia de Pergunta e Resposta Conversacional`. 2. **Modelo de Chat OpenAI**: Atribua sua chave API do OpenAI. 3. **Nó de carregamento do índice existente do Pinecone**: Defina a chave API do Pinecone, ambiente e nome do índice. 4. **Embedding de OpenAI**: Atribua sua chave API do OpenAI. Com este setup, agora você pode fazer perguntas relacionadas ao conteúdo armazenado. Ao executar o fluxo de ingestão de documentos uma única vez, você pode armazenar os dados no banco de dados Pinecone, e as interações subsequentes apenas lerão do banco de dados sem a necessidade de executar o processo de envio inteiro novamente. Para mais detalhes sobre a Cadeia de Linha e flowwise, por favor, consulte o seguinte vídeo: [Vídeo 4: Enviando e Embedding PDFs com a Cadeia de Linha e Flowwise](https://www.youtube.com/watch?v=m0nr1_pnAxc) (Idioma: Inglês) # Vídeo 5: Implementação de Aplicações Flowwise na Nuvem Neste vídeo, abordaremos a implementação de aplicações Flowwise na nuvem. Embora já tenhamos abordado alguns aspectos fundamentais da criação de aplicações Flowwise, muitos de vocês já estão pedindo este assunto nos comentários. **Pré-requisitos: ** 1. Registar uma conta em Render ([reindeer. com](http://reindeer.com), pacote gratuito e individual) 2. Criar uma conta GitHub ([github. com](http://github.com)) 3. Fork o repositório de Flowwise (Link fornecido na descrição do vídeo) **Opções de implementation: ** O Flowwise utiliza a versão do lançamento em JavaScript do Lang chain, que permite implementar a nossa aplicação em qualquer servidor que suporte Node. js. Alguns exemplos de servidores incluem AWS, Azure, Digital Ocean e Google Cloud Platform. No entanto, o Render é o serviço mais fácil de usar para a implementação de aplicações Flowwise. **Implementando em Render: ** 1. Vá para Reindeer e registar a sua conta. 2. Crie uma cópia do projeto Flowwise e guarde-o em um dos seus repositórios. 3. Em Render, crie um novo serviço web e conecte-se à sua conta GitHub. 4. Escolha o repositório de Flowwise e dê-lhe um nome. 5. Mude o tempo de execução para Node. js e modifique os comandos de instalação, compilação e execução, conforme segue abaixo: ``` yarn install yarn build yarn start ``` 6. Para o tipo de instância, selecione a instância gratuita, ou um pacote pago para fins de demontração. 7. Antes de criar o serviço, clique em "Avançado" e configure as seguintes variáveis de ambiente: - flowwise\_username - flowwise\_core\_password 8. Após criar o serviço, a aplicação será implantada na web e estará disponível através de um URL. As aplicações Flowwise implantadas serão seguras, requerendo um nome de utilizador e uma palavra-passe para acessar. **Exportação de Fluxos de Chat: ** Quando criar fluxos de chat, estes são armazenados num ficheiro JSON no servidor. Para evitar perder esses ficheiros ao reiniciar o servidor, recomendamos atribuir um disco ao seu projeto em Render (disponível em pacotes paga). . **Vídeo 6: Treinamento de Prompt** Neste vídeo, abordaremos o treinamento de prompt, que permite combinar várias cadeias e modelos para produzir uma saída para a nossa aplicação. Isso é um dos benefícios principais de usar o Lang chain e o Flowwise, fazendo possível construir aplicações avançadas baseadas em IA. **Exemplo de Treinamento de Prompt: ** 1. Vá para o painel de Flowwise e crie um novo fluxo de diálogo, que chamaremos de "prompt chain. " 2. A aplicação conterá três cadeias: - Cadeia 1: Solicita que a IA forneça um ingrediente para uma receita que corresponda ao nome de uma festa pública. - Cadeia 2: Solicita ao modelo que crie uma receita única baseada na festa pública e no ingrediente principal fornecido pela primeira cadeia, resultando em uma receita com instruções passo a passo e uma lista de ingredientes. - Cadeia 3: Prompeia a IA a se comportar como um crítico de comida, analisando a festa pública e a receita gerada pela cadeia anterior, e depois produzindo uma crítica. 3. passe por cada cadeia passo a passo e construa a aplicação. Divirta-se aprendendo e construindo com o Flowwise! Se encontrou este conteúdo útil, por favor, considere inscrevê-se nesta minha Canal, likear este vídeo e compartilharlo. Se fascinado por o Lang chain, recomendamos fortemente ver a minha série sobre Lang chain. Obrigado pelo seu apoio! Volteemos no próximo! Adeus. --- Traduza para português de Portugal manter a formatação Markdown. 1. FORMATAÇÃO: - Mantenha todos os elementos Markdown (# ** ` [] () etc) - Mantenha a estrutura de títulos e seções - Preserve blocos de código sem traduzir 2. TRADUÇÃO: - Use portugês europeu (não brasileiro) - Mantenha termos técnicos em inglês - Preserve comandos e códigos inalterados - Mantenha URLs intactas Retorne o texto traduzido com toda a formatação Markdown. Corrija e formate este texto: # Demonstração de Férias: Gerador de Receitas com Cadeia e Modelo de Prompt ## Adição da Cadeia de Ingredientes Comecemos adicionando a nossa cadeia e, para este demonstrativo, vou utilizar uma cadeia de LLM simples. Sinta-se à vontade para utilizar um destes outros cadeias em sua aplicação, mas mantenhamos-se simples. Nossa cadeia necessita de um LLM. Utilizaré o modelo da OpenAI e liguei-o à nossa cadeia. Também adicionaremos um modelo de prompt: 1. Navegue até `Nodes` > `Prompts` e pegue o nó do modelo de prompt. 2. Conecte-o à cadeia. 3. Adicione a API key. 4. Para o modelo de prompt, entre something like this: ``` Assistente: Qual ingrediente principal seria adequado para uma receita baseada numa festa pública fornecida pelo utilizador? Festas Públicas: {holiday} ``` Substitua `{holiday}` com o valor da promspt chamado `holiday`. Pode isso fazendo clicando no botão de edição. 5. Insira o valor inserido pelo utilizador no caixão de chat. Feche pop-up. ## Teste da Cadeia de Ingredientes 1. Guarde o fluxo de chat. 2. Introduza uma festa pública, por exemplo, Halloween. 3. Deverá receber a ingrediente principal a voltar como abóbora. ## Adição da Cadeia da Receita Agora, adicionaremos o passo seguinte a esta cadeia: 1. Crie uma nova cadeia de LLM sob `Nodes` > `Chains`. 2. Conecte esta nova cadeia à nossa cadeia. 3. Adicione um LLM sob `Nodes` > `LLMs`. 4. Conecte o LLM à cadeia. 5. Adicione a API key. 6. Adicione um modelo de prompt. ``` Chefe: Crie uma receita que seja relacionada com o tema e utilize o ingrediente gerado pela cadeia anterior. Ingrediente: {ingrediente} ``` Substitua `{ingrediente}` com o valor da promspt chamado `ingrediente`. Pode conectar o resultado da cadeia anterior ao modelo de prompt clicando no dropdown e mudando o saída do LLM para `Output prediction`. 7. Defina os valores de prompt para `holiday` e `ingrediente`. 8. Guarde a cadeia e testa-o. ## Depuração Para depurar, inicie o seu fluxo executando `yarn start` seguido por `--debug`: `yarn start --debug`. Isso iniciará o flowwise em modo de depuração, e pode inspecionar o dados que estão passando das cadeias no console. # Vídeo 7: Implementação de chatbots com Flow Wise - Exemplo Prático (Português European) Neste vídeo, vamos alterar um pouco o nosso foco, passando a olhar para um exemplo prático de implementação de chatbots com Flow Wise. Este caso está relacionado com um site florístico, em que vamos adicionar um bot de suporte ao cliente para o site. Este bot está treinado com informações sobre a sua empresa e pode ajudar os visitantes a responder às perguntas relacionadas com os produtos, horários de funcionamento e outras informações da empresa. Este bot pode ser acessado clicando no buble de chat localizado no canto inferior direito do site. Por exemplo, podemos perguntar ao bot: "Qual tipo de produtos você vende? " Após um segundo, recebemos uma resposta do bot. Tente algumas perguntas adicionais, como: "Quais são os horários de funcionamento? " e "Quem são os proprietários? " Nós recebemos uma resposta específica para esta empresa. Observe que a janela de chat segue o mesmo esquema de cores do resto do site. Mostrar-lhe-á como personalizar o design desta janela pop-up. Chatbots de suporte ao cliente podem reduzir significantemente a quantidade de consultas enviadas ao cliente e aumentar as vendas ao recomendar produtos. Agora vamos ver como implementar chatbots de Flow Wise em aplicações web. Não é necessário ser desenvolvedor para seguir este tutorial; este vídeo beneficiará qualquer pessoa interessada em aprender Flow Wise. ## Pré-requisitos 1. Crie uma chave de API no site [platform. openi. com](http://platform.openi.com). Usaremos Fine-tune como nossa base de dados de vetores. 2. Faça login no Fine-tune e crie um índice. Dê um nome ao índice que será o mesmo nome da empresa (por exemplo, "Flores-PT"). Para as dimensões, use: 1, 5, 3, 6. Selecione S1 para o tipo de produto. 3. Salve o índice e anote o nome. 4. Vá para as chaves de API e anote o valor da chave de API, o ambiente e o nome do ambiente. ## Chatbot Absurdo Agora vamos criar o chatbot absurd. 1. Crie um novo chatbot no Flow Wise e chame-o de "Flores-PT absurd". 2. Adicione a cadeia de recuperação QA ao canvas. 3. Adicione o modelo de chat, selecionando o Chat Open AI. 4. Conecte o modelo ao canvas. 5. Adicione a chave de API OpenAI ao canvas. 6. Deixe o modelo como GPT 3. 5 turbo e defina a temperatura em 0. 5. 7. Adicione a base de dados de vetores, selecionando o Fine-tune. 8. Conecte a base de dados de vetores ao canvas. 9. Adicione a chave de API Fine-tune ao canvas. 10. Adicione o nome do ambiente e o nome do índice do Fine-tune para o carregador de documentos. 11. Adicione o carregador de documentos do arquivo de texto e conecte-o ao ponto de código. 12. Adicione um separador de texto e conecte-o ao carregador de documentos. 13. Adicione o carregador de embeddings do OpenAI e conecte-a à base de dados de vetores. 14. Adicione a chave de API OpenAI ao carregador de embeddings. Salve o chatbot. ## Treinamento do chatbot Para treinar o chatbot, precisamos de informações de negócios sobre a sua empresa. **Documentação Técnica: Customização de Botões e Fundo em um Site usando CSS Televent** Este documento descreve como alterar o estilo de botão e fundo de um site usando o [Televent CSS](https://www.televint.com/), um site que fornece uma vasta gama de cores com valores hash. ## Modificação do botão 1. Localize a seção do botão no seu arquivo HTML que deseja customizar. ```html <! -- Botão com o estilo padrão --> <button>Meu Botão</button> ``` 2. Navegue até a página de cores do Televent CSS e copie o valor hash para a cor que deseja atribuir ao botão. 3. Transforme o botão em código Markdown negrito para enfatizar sua importância. ```markdown **Modificar botão** ``` 4. Adicione as seguintes classes CSS ao botão. ```html <! -- Botão customizado --> <button class="tv-bg-cor-hash-do-seu-botão tv-text-white">Meu Botão</button> ``` Este código irá estilizar o botão com a cor selecionada e a fonte em branco. ## Modificação do fundo 1. Em um arquivo CSS de estilos, localize a seção que controla o estilo do fundo. ```css /* Estilo do fundo padrão */ body { background-color: #f5f5f5; } ``` 2. Altere o valor `background-color` para a cor desejada. ```css /* Estilo do fundo personalizado */ body { background-color: #YourColorHashValue; } ``` 3. Salve o arquivo e volte para seu site para verificar se o fundo foi alterado. ## Outras informações Este documento serve apenas como orientação para aplicar cores do Televent CSS em um site. Para encontrar o valor hash de uma cor específica, visite a página de cores do [Televent CSS](https://www.televint.com/). Para alterar o estilo de outros elementos, consulte a [documentação Televent CSS](https://www.televint.com/documentation-color-library/) para encontrar as classes de estilo apropriadas. # Demo da API Flowwise usando uma Aplicação Personalizada ## Parte 1: Configuração do Ambiente Iniciaremos configurando os headers no Postman: 1. **Autorização: ** Cole sua chave de API, depois siga estes passos: - No Postman, clique no separador de Autorização. - Mude o tipo de autorização de `without auth` para `API Key`. - Coloque a sua chave de API. 2. **Content-Type: ** Defina o tipo de conteúdo como `application/json`. - Para a chave, digite `Content-Type`. - Para o valor, defina-o igual a `application/json`. 3. **Corpo: ** Defina o corpo como `Raw` e caso seja necessário ajuste o tipo a `Json`. ## Parte 2: Criando uma Aplicação Personalizada com Interface Web Aqui está um guia para criar uma aplicação personalizada com interface web para interagir com o fluxo de conversa do Flowwise. ### Pré-requisitos: - Clone o repositório GitHub fornecido [Flowwise API Demo](https://github.com/seu-usuário/Flowwise-API-Demo). - Abre o terminal e execute `git clone https://github.com/seu-usuário/Flowwise-API-Demo` ### Estrutura do Projeto: ``` - Flowwise-API-Demo/ - public/ - index. html - app. js - controllers/ - controllers. js - index. js ``` #### index. js (Arquivo principal da Aplicação) ```javascript // Importe as dependências necessárias e arquivos // . . . // Rotas e Ponto final da API // . . . // Inicie o servidor // . . . ``` #### app. js (Trata as interações front-end e Chamadas da API) ```javascript // . . . // Vincule os elementos HTML a variáveis JavaScript // . . . // Adicione um ouvinte de evento para submit da forma // . . . // Chame o ponto final da API com o mensagem do usuário // . . . //Exiba a resposta do bot // . . . ``` #### controllers/controllers. js (Controlador da API) ```javascript // . . . exports. createPrediction = async (req, res) => { // . . . }; ``` ## Parte 3: Chamada para a API do Flowwise 1. No `controllers. js`, crie a função `createPrediction` para chamar a API do Flowwise e passar o mensagem do usuário. 2. Pegue a resposta da API e exiba-a na tela. ### Nota: - Este exemplo hard-codes a resposta da API. Mas na seguinte etapa, substitua a resposta hard-codada com a resposta real da API do Flowwise. ## Parte 4: Implementação Implemente a aplicação personalizada em Render (ou plataforma de implementação de sua escolha). Pode seguir o processo de implementação fornecido pela plataforma de implementação. --- Divirta-se com o demo personalizado da API do Flowwise com sua interface web! Para vídeos adicionais e explicações em específico sobre determinados tópicos, consulte a documentação do Flowwise. # Guia de implantação da Aplicação Web Este guia irá te guiar pelo processo de implantação de um serviço web usando a plataforma da [Flowwise](https://www.flowwise.ai). A aplicação web requer a configuração de variáveis de ambiente e a utilização de versões específicas do Node. js. ## Configuração do ambiente ### 1. Seleção de Região e Fonte - Seleccione a região desejada. - Escolha a `Fonte` como `Master`. - Deixe o diretório raiz em branco. ### 2. Configuração do tempo de execução - Na secção de tempo de execução, seleccione `Node. js` como o comando de construção. - Mude o comando de construção para `npm install`. - Para o comando de início, escreva `node index. js`. ### 3. Variáveis de ambiente - Adicione as variáveis de ambiente conforme necessity, como as chaves API e valores de configuração. - Adicione uma variável `FLOWWISE_URL` econfigure o seu valor com a URL da API Flowwise. - Adicione duas variáveis adicionais: uma para a chave e outra para o ID de fluxo usando os seus respectivos valores da sua `. env` file. - Adicione uma variável adicional chamada `NODE_UNDERSCORE_VERSO`, defina o seu valor para `LTS` para garantir que a versão mais recente de Node. js seja utilizada. ### 4. Implantação - Implante o serviço web pressionando `Create Web Service`. Espere a implantação para terminar. ## Testando a Aplicação - Depois de uma implantação bem sucedida, verá o servidor a correr com um URL. - Abra o URL e teste a aplicação web para garantir que funciona corretamente. ## A utilização de modelos locais com Flowwise Neste guia, mostraremos-lhe como integrar modelos livres e abertos com Flowwise. Utilizaremos `local AI` e `Docker Desktop` para a integração de modelos locais. ### Pré-requisitos - Instale `local AI`: Visite [a repository de local AI](https://github.com/localAI/localAI) e siga as instruções de instalação. - Instale `Docker Desktop`: Baixe e instale o Docker para o seu sistema operativo a partir de [docker. com](https://www.docker.com/). ### Passos 1. Clone o repositório de local AI usando `git clone`. 2. Instale os modelos requisitados e place-os no diretório adequado. 3. Inicie a instância de local AI usando um comando Docker. 4. Teste as APIs de endpoint usando uma ferramenta como Postman. Para mais informações, consulte a guia de vídeo completa: [A integração do AI Local video](https://www.youtube.com/watch?v=0B0oIs8NS9k) ### A execução de LLM com Replicate 1. Registe-se para uma conta de Replicate e obtenha a sua chave API. 2. Grave as suas credenciais de Replicate no Flowwise. 3. Escolha um modelo de LLM adequado (por exemplo, `llama 2 70 bilhão de parâmetro modelo de chat`). 4. Integralize o modelo escolhido com a sua aplicação Flowwise usando a API de Replicate. Para passos detalhados, consulte a guia de vídeo completa: [A integração com Replicate vídeo](https://www.youtube.com/watch?v=ppST8_LiuqU) Divirta-se a aprender e a criar com a Flowwise! 🙌😊💻 Terá um flow com um nome chamado "Chatbot LLama 2" e poderá chamar o meu "bot de chat LLama 2" para simplificação. Clique no botão "Salvar". Em seguida, adicionar uma cadeia de ILLM para o projeto clicando no botão "Adicionar nós", em seguida clique em "Cadeias" e, em seguida, adicione a cadeia de ILLM. Adicione o modelo de linguagem depois de clicar no botão "Adicionar nó", clique em "ILLMs" e adicione o nó de replicate. Depois, conecte este nó de ILMM ao seu chain como mostrado: ``` [Replicate Node] \ Chain ``` Primeiro, precisamos adicionar nossas credenciais de Replicate, pois já temos elas configuradas, podemos simplesmente clicar neste campo descrito e selecionar a credencial criada anteriormente. Em seguida, precisamos adicionar o nome do modelo, copie o nome do modelo de Replicate e cole-o aqui. Deixe a temperatura como 0, 7 e adicione a sua mensagem de prompt aqui. Use a lista de prompts para adicionar sua mensagem de prompt. ``` [Prompt Template Node] / \ / \ [Chain] [Replicate Node] ``` Precisamos atribuir um valor a variável de "question" clicando em "Valores de Prompt" para a question. Em seguida, click em "Editar" e selecione a variável "Question". Não esqueça de salvar este fluxo. Depois de salvar o fluxo, teste-o clicando em "Chat" e, em seguida, digite "Olá" para testar seu chatbot. Agora, vamos ver como Gerar imagens usando o Llama 2. Volte ao site de Replicate e vá para a página "Explorar". Vá para a página de modelos de dispersão e escolha um modelo de dispersão. Em seguida, copie o nome do modelo e vá novamente para flow wise. Depois, substitua o nome do modelo e o template de prompt aqui e salve o fluxo. Teste este fluxo e digite um prompt como uma "pessoa montando um cavalo em um sol nascente" para ver o resultado final. Por fim, é possível adicionar funcionalidades personalizadas aos seus chatflows no flywise criando suas próprias ferramentas de ferramentas. Abra um fluxo novo, dê-lhe um nome, como "Ferramenta personalizada" e vamos começar criando uma Ferramenta personalizada que adiciona itens à lista de tarefas. Ao abrir o fluxo, click em "Nós", em seguida clique em "Agentes" e adicione o agente "openai function agent" ao seu canvas. Depois, vá para "Modelos de chat" e adicione o modelo de chat OpenAI ao seu canvas e conecte-o ao seu agente. Em seguida, vá para a "Memória" e adicione um nó "Buffer Memory" ao seu canvas e conecte-o ao seu agente. Em seguida, clique em "Ferramentas", em seguida clique em "Ferramentas personalizadas" e adicione o nó de Ferramentas personalizadas ao seu canvas. Em seguida, conecte este nó de Ferramentas personalizadas ao seu agente. Por padrão, você pode adicionar várias ferramentas personalizadas ao projeto, basta arrastar um nó adicional do tipo Ferramentas personalizadas ao seu canvas e conectá-lo ao socket de Ferramentas do seu agente. Crie uma Ferramenta personalizada clicando em "Criar novo" ou voltando ao painel de ferramentas da dashboard de flow wise e clicando em "Criar". Em seguida, dê uma descrição significativa para sua # Integração de Google Sheets com Web Hooks usando o make. com Este guia mostrará-lhe como integrar Google Sheets com Web Hooks usando a plataforma make. com. ## Lista de Resultados 1. Procure por integrados de Web Hooks com Google Sheets na lista de resultados. 2. Clique em `ADICIONAR` e dê um nome à sua web hook. Neste exemplo, chamo minha `flowwise Ai`. 3. Salve a web hook. 4. Será apresentado um ponto final de API que você precisa chamar. Nesta altura, [make. com](http://make.com) está esperando uma chamada inicial para este ponto final. 5. Usamos Postman para fazer a primeira chamada. Copie o ponto final para a primeira chamada. 6. Em Postman, abra uma nova aba e cole o endereço. Mude o método de GET para POST. 7. Clique na `Body` tab, selecione `raw`, e garanta que o tipo seja definido como JSON. 8. Para simplificar as coisas, use colchetes `{}` para a estrutura inicial. Para o valor das propriedades, chame-as apenas de texto para fazer. 9. execute a solicitação clicando `Enviar`. Você deverá receber uma resposta `accepted`. 10. Volte para [make. com](http://make.com) e continue com o segundo passo. 11. No segundo passo, selecione o Google Spreadsheet que deseja utilizar. Talvez precisar de criar uma conexão com a sua conta Google. 12. Mapear os valores do ponto final da API para as colunas do spreadsheet. Neste exemplo, o spreadsheet só tem uma única coluna chamada `descusação`. 13. Renomeie o cenário para algo como `flowwise demo`. 14. Desligue a manga a partir para aceso. 15. Salve o cenário. 16. Volte para Postman e execute a solicitação novamente. Verifique o seu Google sheet para ver se o valor foi adicionado com sucesso. 17. Para terminar o código em Flowwise, volte para o painel, abra `Ferramentas`, selecione `Adicionar ferramenta de tradução`, desloque-se para baixo até o código, e substitua a URL por URL do seu Webhook make. com. 18. Mude o método para POST, deixe as cabeçalhos como `content-type: application/json`, e puse um campo de corpo. Após o fechamento das chaves de cabeçalhos, adicione uma vírgula, depois em uma linha adicione uma propriedade chamada `body`, a sua valor para `JSON. stringify({})`, e dentro das chaves coloque o valor da propriedade de texto obtido através da web hook. 19. Salve a ferramenta e reinicie o Flowwise. 20. Teste a integração novamente executando a mesma instrução no chat. Verifique seu Google sheet para ver se uma nova linha foi adicionada com sucesso. ## Ferramentas personalizadas em Flowwise Para criar ferramentas personalizadas em Flowwise: 1. Limpe a conversa. 2. Volte ao painel. 3. Abra `Ferramentas` e selecione `Adicionar ferramenta de tradução`. 4. Desloque-se até o código e substitua a URL por URL do seu Webhook make. com. 5. Siga as instruções mencionadas acima para modificar o código para a propriedade corpo. 6. Salve a ferramenta e reinicie o Flowwise. ## Remoção de Marcas de Flowwise 1. Instale Git para o seu sistema operacional e tenha uma conta GitHub. 2. Faça o fork do repositório de embed de chat Flowwise em GitHub. 3. Baixe o repositório para a sua máquina. 4. Execute `yarn install` e `yarn build` na linha de comandos para definir as dependências do projeto e reconstruir os arquivos de distribuição. 5. Abra o `Bot` arquivo e retire a marcação. 6. Repetir o comando `yarn build` novamente para reconstruir os arquivos de distribuição. 7. Envie as suas alterações de volta para GitHub. 8. Altere o código de snippet no seu site para referenciar o seu repositório GitHub pessoal em vez do repositório DEFAULT Flowwise. 9. A marcação deve agora ter sido removida do seu chatbot. Use de um Pacote Externo Node ============================== Aprenda algumas habilidades essenciais para construir ferramentas de Flowwise. Neste tutorial, vamos configurar Flowwise para o desenvolvimento, instalar dependências externas do Node e criar uma ferramenta personalizada que utiliza essas dependências externas. Para este demonstrativo, vamos criar uma ferramenta personalizada que busca informações sobre Pokémon na nossa janela de chat utilizando o pacote npm `pokemon`. O robô de chat será perguntado para ou recuperar um Pokémon aleatório ou obter o nome de um Pokémon com base em seu ID. Para seguir em frente, precisará de: * A versão LTS mais recente do Node instalada. * Git instalado para o seu sistema operacional. * Um editor de código (por exemplo, Visual Studio Code). * Algunas experiências com Node e JavaScript serão benefícios. Comecemos! ### Configurando o Flowwise para o Desenvolvimento 1. Baixe o repositório Flowwise desta [página](https://github.com/flowwise/flowwise-web). 2. Crie uma nova pasta para os arquivos baixados e abra o terminal ou prompt de comando (Windows: `CMD`). 3. Navegue até a pasta onde os arquivos foram baixados e abra-a com Visual Studio Code (`code . `). 4. Instale as dependências do Flowwise executando `yarn install` no terminal. Isso levará um minuto para ser concluído. 5. Construa o projeto executando `yarn build`. 6. Inicie o Flowwise executando `yarn start` e acesse `localhost: 3000` para ver-lo em ação. Agora, agiremos para configurar as credenciais adicionando a sua chave de API do OpenAI: 1. Vá para `Credentials` e adicione uma nova credencial. 2. Selecione `OpenAI API`. 3. Forneça um nome (por exemplo, `Chave API OpenAI`). 4. Coloque a sua chave de API. Agora, vamos criar um fluxo de chat para nosso robô de Pokémon: 1. Vá para `Fluxos de chat` e crie um novo fluxo. 2. Nomeie o fluxo (por exemplo, `Fluxo de chat de Pokémon`). 3. Selecione o `agente de função OpenAI` e adicione-o ao canvas. 4. Adicione um nó `Modelo de chat OpenAI` como o modelo do chat. 5. Conecte este nó ao agente. 6. Adicione um `Buffer Memory node` para a memória. 7. Conecte este nó ao agente. 8. Adicione um `Node de ferramenta personalizada` para a nossa ferramenta personalizada. 9. Crie a ferramenta personalizada salvando o fluxo de chat. 10. Defina a ferramenta; para este demonstrativo, criaremos uma ferramenta para recuperar um Pokémon aleatório. - Dê-lhe um nome (por exemplo, `Obter Pokémon aleatório`). - Na descrição do tool, especifique que deve ser usado quando solicitado a recuperar um Pokémon aleatório. - Deixe a esquema de saída vazia desde que esta ferramenta não exija qualquer entradas. - Adicione uma propriedade para a ferramenta para armazenar o ID do Pokémon recolhido. - Escreva epochémua código JavaScript para recuperar um Pokémon aleatório utilizando o pacote npm `pokemon`. ```javascript const Pokemon = require('pokemon'); const pokemon = new Pokemon(); const randomPokemon = pokemon. random(); // Retorne o Pokémon recolhido na forma de cadeia return randomPokemon. name; ``` 11. Salve a ferramenta e o fluxo de chat. 12. Teste o bot perguntando-lhe para recuperar um Pokémon aleatório na janela de chat. Para instalar o pacote nmp `pokemon`, siga estes passos: 1. Parre o projeto Flowwise e limpe o terminal. 2. Navegue até a pasta `components` no terminal. 3. Instale o pacote `pokemon` executando `yarn add pokemon`. 4. Rebuilde Flowwise executando `yarn install` novamente e depois `yarn build`. Agora, o seu robô de chat Flowwise deve ser capaz de recuperar nomes de Pokémon aleatórios do pacote npm `pokemon`. Pode continuar a expandir este tutorial criando uma ferramenta para recuperar os detalhes de um Pokémon específico utilizando o seu ID, criando sua própria ferramenta personalizada e integrando-a ao seu robô de chat e ajudando-o a construir projectos de AI com Flowwise! [Video 15: https://www.youtube.com/watch?v=QUGrcABPCFM (Idioma: en)](https://www.youtube.com/watch?v=QUGrcABPCFM) ------------- Os robôs de chat Pessoa AI são umas das oportunidades mais populares e lucrativas no espaço do robô de chat AI hoje. O melhor é que, para criar estes robôs, não precisa ser desenvolvedor, podendo utilizar ferramentas como Flowwise. Neste tutorial, vamos criar um robô de chat Pessoa AI do Sr. Beast que fornece conselhos pessoalizados sobre a criação de conteúdo e de crescimento de canal do YouTube. Vamos configurar Flowwise desde o início e mostrar-lhe passo a passo como criar um próprio robô de chat Pessoa AI com Flowwise! Para instalar Flowwise, precisará dos seguintes passos: * Baixe o Git para o seu sistema operacional desta [página](https://git-scm.com/downloads). * Baixar a versão LTS do Node da-se desta [página](https://nodejs.org/). # Configuração e Preparação de Dados do Chatbot Flow Wise ## Instalando Dependências Para instalar as dependências para Flow Wise, possíveis as seguintes etapas: 1. Abra o terminal e vote para dentro do seu diretório de projeto. 2. Digite `yarn install` e pressione Enter. Se receber um erro de mensagem afirmando que `yarn` não é um comando válido, é possível instalar-lo executando: ``` npm install -g D- Global yarn ``` Depois da instalação, execute: ``` yarn build ``` ## Iniciando Flow Wise Para iniciar Flow Wise, vote para dentro do seu diretório de projeto no terminal e execute: ``` yarn start ``` Agora você pode acessar Flow Wise no seu navegador indo para `Local Host Port 3000`. ## Preparando Dados para o Chatbot Pessoal Para preparar dados para o seu chatbot pessoal, você pode seguir estes passos: 1. Procure fontes relevantes, como blogs, artigos, podcasts, ou vídeos do YouTube. 2. Para este exemplo, usaremos os vídeos de conselhos de Mr Beast no YouTube. 3. Faça o download do resumo do vídeo selecionado e adicione-o ao conhecimento do seu chatbot. 4. Repita este processo para todas as outras fontes. ### Baixando Transcripts do YouTube 1. Copie a URL do vídeo do YouTube. 2. Vá [Transcript YouTube](https://www.youtube.com/timedtext_video?v=<ID_DO_VIDEO>) (substitua `<ID_DO_VIDEO>` pelo ID do seu vídeo). 3. Coloque a URL e clique em `Ir`. 4. Clique em `Copiar o Transcrição Completa`. 5. Crie uma pasta nova na sua máquina para armazenamento de arquivos de transcripto. 6. Crie um novo arquivo de texto, coloque o texto da transcrição, e salve o arquivo. 7. Repita este processo para todos os outros vídeos. ## Criando um Fluxo de Diálogo em Flow Wise 1. Em Flow Wise, clique em `Adicionar Novo` para criar um novo fluxo de diálogo. 2. Nomeie o seu fluxo de diálogo e salve-o com um nome, como `AI Bom`. 3. Adicione uma nota que permita que você toque com um modelo de inteligência artificial com acesso à base de conhecimento. 4. Adicione a `Cadeia de Diálogo de QA Conversacional`. 5. Anexar um modelo de linguagem à cadeia, como `chat-open-ai`. 6. Ligue o modelo para a cadeia. 7. Adicione um retriever de vetores de armazenamento em memória ao armazênio, como `Vetor Armazenamento em Memória`. 8. Ligue o armazenamento em memória para a cadeia. 9. Adicione um modelo de embeddings, como `open-ai-embeddings`. 10. Ligue o modelo de embeddings ao armazênio do vetor. 11. Carregue seu uploadador de documentos, como `Arquivo com Caractere Recursivo`. 12. Ligue o uploadador de texto ao armazenamiento do vetor. 13. Especifique o caminho aos seus arquivos de texto no uploadador de documentos. 14. Adicione suas credenciais da OpenAI. 15. Salve o seu fluxo de diálogo e testá-lo. ## Adicionando Memória de Diálogo de Longa Duração Para adicionar memória de diálogo de longa duração para seu chatbot, use o `upstash-redis-backed-chat-memory` do Node. js. 1. Tenha certeza de ter a versão mais recente de Flow Wise instalada. 2. Crie um simples fluxo de diálogo da página de painel do Flow Wise. 3. Adicione uma cadeia e uma cadeia conversacional. 4. Adicione seu modelo de linguagem, como `chat-open-ai`. 5. Ligue seu modelo linguístico para a cadeia. 6. Adicione o `upstash-redis-backed-chat-memory` do Node. js. 7. Ligue a memória para a cadeia conversacional. 8. Configure o `upstash-redis-backed-chat-memory` seguindo as instruções fornecidas pelo Upstash. Divirtam-se na criação de seu chatbot com o Flow Wise! 🤖😊️🚀 # Configurando o Nó Up Stash no Flow Wise Para configurar o Nó Up Stash no Flow Wise, precisaremos fornecer credenciais para Up Stash. Aqui está uma guia passo a passo: ## Fornecendo Credenciais para Up Stash 1. Começe clicando no lado pesquisa e depois clique em `Criar Novo`. 2. Dê este credencial um nome, por exemplo, `up stash Rus`. 3. Forneça o token de REST do Up stash Rus, que pode ser obtido da página **Detalhes** em Up Stash caashando até a seção **API REST**. Aqui, você encontrará um link para copiar a URL REST assim como o token. 4. Copie o token e cole-o no campo fornecido. 5. Clique em `ADICIONAR`. ## Adicionando a URL REST 1. Obtenha a URL REST em Up Stash e colle-o na caixa de texto fornecida para a URL REST. ## Especificando um ID de Sessão 1. Clique em `Parâmetros Adicionais`. 2. Agora poderá chamar o ID de sessão como você desejar. Por exemplo, se estiver seu planejando ter várias conversas com chatbots, poderá dar um nome como `C1` para a conversa um. 3. Caso deseje, também pode especificar um tempo limite de sessão. Para deixar a sessão eterna, deixe este campo em branco. 4. Feche a caixa de diálogo e salve o fluxo de conversas. 5. Teste a configuração clicando no bur容彥 inde chat e digitando algo como "Olá". Você deve receber uma resposta do chatbot. 6. Para ver o conteúdo do banco de dados, clique em `Visualizador de Dados` e poderá ver o ID de sessão que você chamou, além de histórico da conversa. 7. Para criar outro ID de sessão, digite `C2` e salve o fluxo de conversas, depois atualize Up Stash para ver as últimas mensagens em conversa aparecendo. --- ## Adicionando Memória de Conversas de Longa Duração aos seus Chatbots usando o Banco de Dados de Memória Rish da Up Stash Através do uso de IDs de Sessão, estamos capazes de armazenar históricos de múltiplas conversas no Banco de Dados de Memória Rish da Up Stash. --- #### Vídeo 17: [YouTube](https://www.youtube.com/watch?v=KwUbCeM2yLo) (Idioma: en) Neste vídeo, você aprenderá a maneira mais fácil e a mais barata de adicionar assistência do OpenAI em seus sites. --- #### Demonstração Usando o Website Cloudsync Para demonstrar isso, criei um site para uma empresa fictícia chamada Cloudsync. Podemos conversar com o assistente clicando no bur contemplador no canto inferior direito do site, onde podemos fazer perguntas sobre a empresa. --- #### Integrando o Assistente do OpenAI em um Site Esta interface está usando um assistente do OpenAI por trás das cenas e quando nós vamos no site do OpenAI, podemos ver o assistente juntamente com as instruções, o modelo e as ferramentas disponíveis. --- #### Adicionando uma Função de Liderança Também adicionei uma função chamada `add lead` a este assistente, que será usada para criar um registro em nosso sistema CRM caso este usuário queira seguir com nossos serviços. Por exemplo: 1. Supondermos que estejamos interessados em saber mais sobre este negócio e querer agendar uma reunião. Podemos agora falar com o chatbot algo como "Quero agendar uma reunião". 2. Isso acionará alguma funcionalidade dentro deste chatbot, pedindo que nos forneçamos o seu nome, sobrenome, email, nome da empresa e número de telefone. Esses são os valores que eu preciso dos usuários para o meu sistema de liderança. No entanto, você pode personalizar isso ao seu desired. 3. Se você não fornecer estes valores separadamente, o assistente irá dividir inteligentemente o primeiro e o último nome de seu input, mas também solicitará o nome da empresa e o número de telefone. --- #### Configurando o Flow Wise Para construir esta conversa e integrar em um site, fazeremos uso de uma plataforma aberta chamada Flow Wise. 1. Para seguir com este vídeo, é necessário configurar uma instância do Flow Wise. Se você ainda não o fez, tenho uma série inteira para vos ensinar os fundamentos do Flow Wise e neste demo tenho uma instância do Flow Wise ativa no Render. 2. Para implantar o Flow Wise no Render, vá até o repositório do GitHub de Flow Wise e siga as instruções fornecidas na descrição deste vídeo. 3. No projeto do Flow Wise, este assistente inteiro consiste apenas de dois nós. Este vídeo é amigo para iniciantes e você não precisa de conhecimentos de programação para acompanhar. Façamos o começar! 😄 # Guia: Integrando Flow Wise com o Zoho CRM Usando make. com Hoje vamos mostrar como integrar o Flow Wise com o Zoho CRM, usando um serviço chamado make. com. ## Pré-requisitos - Crie uma conta na make. com - Crie uma conta no Zoho CRM ## Passos ### 1. Criar um Webhook na make. com 1. No painel da make. com, clique em "Cenários" e depois em "Criar Novo Cenário". 2. Clique no botão de adição grande. 3. Procure por "Web Hooks" e clique nele. 4. Clique em "Custom Web Hook" e depois em "ADICIONAR". 5. Dê um nome ao Web Hook, por exemplo, "Flow Wise AI". Clique em "Salvar". 6. A URL do ponto final será fornecida a você. Deixe a tela conforme está e não feche a janela por enquanto. ### 2. Adicionar Ferramenta Personalizada em Flow Wise 1. Adicione uma ferramenta personalizada para adicionar leads ao seu sistema CRM no Flow Wise. 2. Conecte a Ferramenta Personalizada com seu assistente. 3. configure as propriedades da ferramenta e forneça o código JavaScript para chamar o ponto final da make. com. ### 3. Integrar Flow Wise com o Zoho CRM 1. No código JavaScript, substitua a URL do ponto final pela fornecida pela make. com. 2. Mapear os valores do webhook para o Zoho CRM. 3. Execute o cenário, teste com o bot do chat, e verifique os leads no Zoho CRM. ### 4. Adicionar o bot do Flow Wise ao seu site WordPress 1. Vá para a seção "API Endpoints" do seu painel de controle do Flow Wise. 2. Copie o código de inserção. 3. Adicione o código ao seu site WordPress, abaixo do tag body ou use um plugin para inserir no seu site. **Lembre-se: ** - configure as configurações de limite de taxa no Flow Wise para prevenir spamming e manter custos. - Idealmente, configure uma melhor chave de token ou API para a segurança ao chamar o bot como um ponto final de API. Divirta-se ao sistema Flow Wise e Zoho CRM integração completa! Em caso de problemas ou dúvidas, peça suporte. Feliz automação! # Documentação Técnica: Adicionando Agendamento de Encontros à Bot de Chats (Markdown) ## Introdução Nesta documentação, apresentaremos como adicionar agendamento de encontros a um bot de chat. Neste exemplo, abordaremos a adição de um bot de chat ao OpenAI e Flow Wise, que pode atender perguntas sobre nossos produtos e serviços, e também gerar uma liderança por discussão conversacional. ## Passos para adicionar agendamento de encontros 1. ### Passo 1: Adicionar o novo plugin Clique em `Adicionar Plugin` e, em seguida, procure por um plugin que se interessa. Neste exemplo, usaremos o `WP Code`. Instale e ative o plugin. 2. ### Passo 2: Criar Snippets de Código Depois de instalar o plugin, vá para `Snippets de código`, depois de `Snippets de código`, clique em `Novo`. Em seguida, copie o seguinte código de exemplo e cole em `Código de Preview`: ``` function wpcb_setup_appointment_booking() { // Sua lógica para configurar e gerenciamento de agendamento de encontros } add_action('init', 'wpcb_setup_appointment_booking'); ``` 3. ### Passo 3: Configurar a lógica do agendamento de encontros Adicione a lógica que você deseja para o agendamento de encontros. Altere parâmetros como local, data default, horas disponíveis, pagamento e tipos de dispositivo. 4. ### Passo 4: Ativar o plugin de agendamento de encontros Depois de configurar a lógica do agendamento de encontros, ative o plugin. 5. ### Passo 5: Testar o agendamento de encontros Depois de ativar o plugin, veja o site ao vivo para verificar se o agendamento de encontros está funcionando corretamente. 6. ### Passo 6: Configurar Pagamento Se o agendamento de encontros for com pagamento, integre um sistema de pagamento, como Stripe ou PayPal. **Vídeo de Amostra 18: https://www.youtube.com/watch?v=A_gMy3sofEE (Língua: en)** Neste vídeo, demonstramos como adicionar facilmente agendamento de encontros a um bot de chat. **Vídeo de Amostra 19: https://www.youtube.com/watch?v=s4mMIFy6YPg (Língua: en)** Neste vídeo, mostramos como adicionarmos um bot de chat ao Telegram. Lembre-se que a maioria das URLs contidas nos vídeos devem funcionar ao vivo. # Conexão entre Bot do Telegram e OpenAI ## Introdução Este tutorial demonstra como criar uma conexão entre um bot do Telegram e o OpenAI para uma interação baseada em chat. Usamos a API do OpenAI para alcançar isso e integrar-nos na plataforma Flow. ai (agora conhecida como Langchain) para adicionar funcionalidades adicionais. ## Pré-requisitos 1. Uma conta do Telegram com um bot criado. 2. Uma conta do OpenAI com uma chave API. 3. Uma conta do Langchain para aproveitar suas partes de chat de conhecimento poderosas. ## Passos ### 1. Configurar o Bot do Telegram #### **Obter o ID de conversa** Na sua conta do Telegram do bot, obtenha o ID de conversa do campo *message > chat > id*. #### **Enviar uma mensagem** Você pode enviar um teste de mensagem ao bot como "olá". O bot deve responder com a mensagem recebida. ### 2. Integrar o OpenAI com o Bot do Telegram #### **Criar um novo módulo** Adicione um novo módulo, procure pelos "OPEN AI" na lista de aplicações, e clique em "Create Completion". #### **Configurar a conexão do OpenAI** Dê um nome à sua conexão, adicionar sua chave API do OpenAI, deixe o ID da organização em branco, e clique em "Save". #### **Passar a mensagem para o OpenAI** Specifique o usuário como o papel, e passe a mensagem recebida do Telegram bot como o conteúdo do mensagem. #### **Testar a conexão** Executar o módulo com uma nova mensagem para verificar se ele recebe e processa a mensagem. ### 3. Enviar a resposta gerada de volta para o Telegram #### **Criar um novo módulo** Adicione outro módulo, selecione "Bot do Telegram", e neste caso selecione "Enviar uma mensagem de texto ou resposta". #### **Configurar o módulo** Selecione a conexão criada para este módulo, pule o ID de conversa do módulo existente do Telegram e passe a resposta recebida do módulo do OpenAI como o texto. #### **Testar o bot** Execute o módulo e envie um teste de mensagem pelo Telegram para verificar a resposta do bot. ### 4. Incluir Langchain para funcionalidades avançadas 1. Retire a URL da API do Langchain a partir de seus pontos finais API. 2. Apague o módulo do OpenAI e adicione um novo módulo HTTP entre os dois módulos do Telegram. 3. Cole a URL do API no módulo HTTP e configure a solicitação de acordo para passar a mensagem do Telegram bot para o assistente de inteligência artificial do Langchain. 4. Conecte o módulo de resposta ao módulo HTTP e configure-o para responder com a mensagem recebida do bot do Langchain. 5. Teste o bot com uma nova mensagem para verificar a funcionalidade com o Langchain. ### Customizar a foto de perfil do bot 1. Acesse o bot do Telegram pelo Bot Father. 2. Altere a foto de perfil conforme desejado. ## Conclusão Seguindo este tutorial, você aprendeu como criar um bot básico usando o Telegram, o OpenAI, e opcionalmente o Langchain. Você pode expandir este exemplo para criar bots mais Complexos personalizados atendendo às suas necessidades específicas. 